Openai признава, че новите модели увеличават риска от злоупотреба за създаване на биологични земедели
Последните модели на Openai „ свястно “ са нараснали риска, че изкуственият разсъдък ще бъде злоупотребяван за основаване на биологични оръжия, признава компанията.
Базираната в Сан Франциско група разгласи новите си модели, известни като O1, в четвъртък, като разгласи новите си качества да разсъждават, да вземат решение проблеми с математиката и да дават отговор на научните проучвателен въпроси. Тези достижения се преглеждат като решителен пробив в напъните за основаване на неестествен общ интелект-машини с знание на равнище човешко.
Системната карта на Openai, инструмент за пояснение по какъв начин AI работи, съобщи, че новите модели имат „ междинен риск “ за проблеми, свързани с химически, биологични, радиологични и нуклеарни (CBRN) оръжия - най -високият риск от този риск, който Openai в миналото е давал за своите модели. Компанията съобщи, че това значи, че технологията " свястно е подобрила " способността на специалистите да основават биологични източници.
AI програмен продукт с по-напреднали благоприятни условия, като да вземем за пример способността за осъществяване на малко по малко разсъждения, съставлява нараснал риск от корист в ръцете на неприятни артисти, съгласно специалисти.
Йошуа Бенгио, професор по компютърни науки в Университета в Монреал и един от водещите международни АИ учени, съобщи, че в случай че Openai в този момент съставлява „ междинен риск “ за химическите и биологичните оръжия, „ това единствено ускорява смисъла и спешността “ на законодателството, което Като горещо обсъждан законопроект в Калифорния за контролиране на бранша.
FT News BrinowingOpenai започва идващото си потомство принадлежности
Мярката - известна като SB 1047 - ще изисква производителите на най -скъпите модели да подхващат стъпки, с цел да сведат до най-малко The Риск техните модели са били употребявани за създаване на биологични източници. Тъй като „ Frontier “ AI модели напредват към AGI, „ рисковете ще продължат да се усилват, в случай че липсват верните предпазители “, сподели Бенгио. „ Подобряването на способността на AI да разсъждава и да употребява това умеене за машинация е изключително рисково. “
Тези предизвестия пристигнаха като софтуерни компании, в това число Гугъл, Meta и Anthropic, се състезават за създаване и възстановяване на комплицираните AI системи, защото като системи за AI, защото като системи за AI, защото като системи за AI, защото като системи за AI, защото като системи за AI, защото Meta и Anthropic, както и системите на AI, защото Meta и Anthropic се състезават и усъвършенстват комплицираните AI системи, защото Meta и Anthropic, както и системите на AI, защото Meta и Anthropic, както и системите на AI, защото Meta и Anthropic, защото Meta и Anthropi Те се стремят да основат програмен продукт, който може да работи като „ сътрудници “, които оказват помощ на хората при осъществяване на задания и навигиране в живота им.
Тези сътрудници на AI също се преглеждат като евентуални производители на пари за компании, които се борят с големите разноски, нужни за, нужни за нужните за разноски, нужни за нужните за разноски, нужни за нужните за разноски, нужни за нужните за разноски, нужни за разноски Тренирайте и управлявайте нови модели.
Червеният екип на OpenAiopenai: Експертите, наети да „ почистват “ Chatgpt
Мира Мурати, основен софтуерен шеф на Openai, сподели пред „ Financial Times “, че компанията е изключително „ внимателна “ с това по какъв начин е това, че е това, че е това, че е това, по какъв начин е това Предаване на O1 пред обществеността, заради усъвършенстваните си благоприятни условия, макар че продуктът ще бъде необятно наличен посредством платените клиенти на Chatgpt и до програмистите посредством API.
Тя добави, че моделът е бил тестван от по този начин наречените червени-Teamers-експерти в разнообразни научни области, които са се пробвали да нарушат модела-да прокарат нейните граници. Мурати сподели, че актуалните модели се показват надалеч по -добре на общите индикатори за сигурност от предходните.
Openai съобщи, че моделът за визуализация „ е безвреден за разрастване в [собствените си политики и] оценява„ междинен риск “в [неговия] внимателен мащаб, защото не улеснява увеличените опасности оттатък това, което към този момент е допустимо със съществуващия Ресурси ”.
Допълнително отчитане от Джордж Хамънд в Сан Франциско